Sommaire : Trois questions à Gilles Kahn | L'actualité de la semaine | Enseignement | Théories et concepts | La recherche en pratique| Manifestations Le livre de la semaine | Détente
ABONNEMENT/DESABONNEMENT| PAGE D'ACCUEIL DE L'ASTI | NUMEROS PRECEDENTS.
Photo Inria/Jim Wallace
Asti-Hebdo : Vous animez, à la journée Asti 2001, une session "apports et relations des sciences de l'information aux connaissances scientifiques ? Y aurait-il des doutes sur l'utilité de l'informatique ?
Gilles Kahn : Tous les scientifiques se servent de l'informatique et n'en font pas mystère. Mais la relation entre informatique et autres sciences semble souvent utilitaire. On utilise des logiciels s'ils sont disponibles sur étagère, sinon on s'en passe.
Je pense que cette vision ancillaire de l'informatique ne correspond pas à la réalité de la recherche scientifique d'aujourd'hui. Cela ne se passe pas comme cela. L'informatique est désormais au coeur de la science elle-même. Exactement comme les mathématiques. Mais il reste à bien comprendre ce rôle spécifique.
Le dialogue est d'ailleurs difficile parce que nombre de scientifiques, par ailleurs cultivés, ignorent l'essentiel de l'informatique. Ainsi, tel physicien s'étonne que les informaticiens connaissent mal la mécanique quantique mais, en revanche, s'imagine que les ordinateurs manipulent effectivement des nombres réels.
Les chimistes, par exemple, se heurtent à des problèmes de puissance de calcul, de précision et de modélisation de très grosses structures, aussi bien qu'à la nécessité d'en donner des représentations graphiques efficaces. Les problèmes que se pose la science aujourd'hui vont exiger de la part des informaticiens un effort considérable pour fournir des machines et surtout des algorithmes appropriés.
Hebdo : L'algorithmique est donc un axe essentiel de développement de l'informatique ?
G.K. : C'est un point crucial. Et la disponibilité d'algorithmes appropriés peut être la condition sine qua non de certaines recherches physiques. Prenons l'exemple classique de la transformation de Fourier rapide. Son mérite majeur est de prendre un algorithme de complexité O(n2) et de le ramener à O(n.log(n)). Un détail, qui sans doute ne semblera pas d'une importance fondamentale. Et qui pourtant fera tout simplement la différence entre le possible et l'impossible pour la modélisation des phénomènes qu'il étudie.
Concrètement, un des objectifs scientifiques prioritaires de l'Inria est de combiner modélisation numérique et réalité virtuelle. Aux chimistes, par exemple, nous voulons offrir, derrière les outils conviviaux et intuitifs de la réalité virtuelle, une panoplie de calcul scientifique aussi avancée que possible. Bref, offrir la richesse du calcul dans des environnements beaucoup plus interactifs qu'aujourd'hui.
Cela exige le développement d'algorithmes totalement nouveaux. Par exemple, pour visualiser progressivement des résultats et les traduire dans des images de plus en plus précises, il faut disposer d'une visualisation incrémentale qui dépasse les algorithmes sous-jacents aux plus belles images du dernier Siggraph.
Hebdo : Ainsi l'algorithmique ferait le ciment entre toutes les spécialités, toutes les professions concernées ?
G.K. : L'informatique est un domaine extraordinairement varié autant que rapidement évolutif. Cela réagit sur toutes ses applications. Une compagnie d'assurances ou une banque pense aujourd'hui son avenir en termes non seulement d'actuariat, comme au XIXe siècle, mais de modélisation et de gestion du risque comme de mise en réseau de tous ses interlocuteurs. Ses problèmes ne sont pas, bien sûr, ceux du chimiste ou de l'astrophysicien.
L'informatique est donc un domaine extraordinairement varié, dont on ne peut donner une vision complètement monolithique, même si elle s'organise autour de quelques axes majeurs comme l'algorithmique.
Ces considérations théoriques prennent leur sens dans la pratique des chercheurs, des développeurs et même de tous les utilisateurs, industriels mais ici surtout scientifiques. Ce qui peut se résumer en une question-clé à leur poser : "Que faites-vous quand les logiciels dont vous avez besoin ne sont pas disponibles ? Les développez-vous tout seul ? Organisez-vous une coopération avec d'autres ? A partir de quel moment concluez-vous que l'investissement logiciel nécessaire dépasse ce qui est normal pour le budget de votre laboratoire ou le type de compétences qu'il regroupe ?
Cette question a une dimension économique et managériale aussi bien que purement scientifique et épistémologique. Voilà le débat que je compte animer avec les personnalités que j'ai invité à se joindre à moi à la tribune d'Asti 2001.
Souhaitons à nos amis Nippons plus de chance qu'avec leurs grands projets "scientifiques" des années 80 (Cinquième génération, Tsukuba, etc.).
Il a rassemblé 120 participants, dont 25% d'entreprises, 25% d'étudiants et 50% d'universitaires. Les actes conférence ont été édités par Hermès Science Publications dans sa revue ECA. La deuxième édition, organisée par Danièle Hérin (LIRMM), aura lieu à Montpellier du 21 au 23 janvier 2002.
Présidé par H. Briand et F. Guillet, le congrès avait pour objectif de rassembler d’une part une communauté académique multidisciplinaire (systèmes d’information et bases de données, apprentissage automatique, ingénierie des connaissances, statistiques et analyse de données,…) et des spécialistes de l’entreprise autour de la double thématique de l’ "Extraction des Connaissances dans les bases de Données" (ECD, ou KDD : Knowledge Discovery in Databases) et de la "Gestion des Connnaissances" (GC, KM : Knowledge Management).
La première journée a été consacrée aux tutoriels :connaissances et XML (C. Belleil), ensembles approximatifs (M. Quafafou), visualisation des connaissances (F. Poulet), SODAS (E . Diday), Multimédia Mining (C. Djeraba).
La journée du jeudi, a constitué le temps fort. Elle a débuté par
trois conférences invitées :
- le processus de gestion de connaissances (J-L Ermine),
- datamining and customer Relationship Management (M. Jambu),
- recherche documentaire sur le Web (M. Rajman)).
Elle s’est poursuivie par deux sessions :
- applications dans l’entreprise : gestion des compétences, travail collaboratif et intranet, Web
mining, conception de produits complexes, entreprise étendue, évolution des
connaissances et innovation, intelligence économique et gestion des connaissances),
- extraction de connaissances : description symbolique de classes,
découverte de règles ordinales, applications de la fouille de données,
l'intensité d’implication entropique, construction de
hiérarchies de classes à partir de données semi-structurées , génération
de règles par compression.
Outre divers articles techniques sur la médecine scientifique (réseaux, intelligence artificielle, aide à la décision, bioinformatique), on notera l'article de synthèse des animateurs (Stefan Klein et Valentin Masero), qui tentent une approche globale des questions de santé. Les lecteurs français n'aimeront leur expression "health care industry", peu acceptable dans notre culture où la santé est avant tout considérée comme un service public, et la marchandisation du corps comme contraire aux droits de l'homme. Ce n'est pas une raison suffisante pour négliger leurs analyses des différents types de réseaux de santé ou leurs références à des travaux (américains) sur l'évaluation quantitative de l'état de santé d'une communauté.
(Communiqué par Armand Berger)
NDLR : On ne sait pas ce qu'ont répondu les Asiatiques, ni ce qu'aurait
donné un sondage sur les NTIC !